Apesar da existência de algumas iniciativas empresariais e governamentais, ainda não há uma estratégia para regular essa tecnologia no país, apontaram participantes do primeiro evento do Ciclo ILP-FAPESP de Ciência e Inovação de 2023 (imagem: Rawpixel/Freepik)
Apesar da existência de algumas iniciativas empresariais e governamentais, ainda não há uma estratégia para regular essa tecnologia no país, apontaram participantes do primeiro evento do Ciclo ILP-FAPESP de Ciência e Inovação de 2023
Apesar da existência de algumas iniciativas empresariais e governamentais, ainda não há uma estratégia para regular essa tecnologia no país, apontaram participantes do primeiro evento do Ciclo ILP-FAPESP de Ciência e Inovação de 2023
Apesar da existência de algumas iniciativas empresariais e governamentais, ainda não há uma estratégia para regular essa tecnologia no país, apontaram participantes do primeiro evento do Ciclo ILP-FAPESP de Ciência e Inovação de 2023 (imagem: Rawpixel/Freepik)
Elton Alisson | Agência FAPESP – O lançamento do ChatGPT pela startup norte-americana OpenIA, no final de 2022, reacendeu o debate em diversos países sobre a necessidade de regulamentar a inteligência artificial (IA) a fim de mitigar os impactos e os potenciais riscos dessa nova tecnologia em áreas como o mercado de trabalho.
No Brasil, apesar de existirem algumas iniciativas empresariais e governamentais, ainda não há, contudo, uma política pública que estabeleça as diretrizes para regular a IA no país, apontaram pesquisadores participantes do primeiro evento on-line do Ciclo ILP-FAPESP de Ciência e Inovação de 2023, realizado na segunda-feira (27/03).
“Há algumas iniciativas setoriais voltadas a regulamentar a inteligência artificial no Brasil, mas que não se configuram como uma estratégia ou política pública. E temos que ter”, avaliou Dora Kaufman, professora do programa de tecnologia da inteligência e design digital da Faculdade de Ciência e Tecnologia da Pontifícia Universidade Católica de São Paulo (PUC-SP) e pesquisadora dos impactos sociais e éticos da IA.
De acordo com Kaufman, entre as propostas de regulamentação da IA existentes internacionalmente há oito que são consideradas mais relevantes, lançadas por países estratégicos nesse tema. Em comum, elas têm orçamento definido para implementá-las e contemplam aspectos como os impactos da IA na educação e no mercado de trabalho.
Já no Brasil está em andamento a Estratégia Brasileira de Inteligência Artificial (Ebia), proposta pelo Ministério da Ciência, Tecnologia e Inovação (MCTI), e está em tramitação o projeto de lei de 21/20, que cria o marco legal do desenvolvimento e uso da IA no país.
Aprovada no plenário da Câmara dos Deputados em setembro de 2021, após um período de consulta pública com duração de quatro meses, a proposta seguiu para tramitação no Senado.
“Não sei qual o entendimento que os deputados que aprovaram a proposta têm sobre a inteligência artificial e temo que saia um projeto que não represente, de fato, o que é preciso para proteger o usuário, a reputação das instituições e a sociedade em geral”, afirmou Kaufman.
Razões para regulamentar
Na avaliação da pesquisadora, uma das principais razões pelas quais é preciso regulamentar a IA mundialmente é que se trata de uma tecnologia de propósito geral, que reconfigura a lógica e o funcionamento das sociedades.
“Se considerarmos os últimos séculos, tivemos três tecnologias de propósito geral anteriores à IA: o carvão, que deu início à Revolução Industrial, a eletricidade e a mutação genética”, enumerou.
Apesar da necessidade de regulamentação e da existência de propostas de políticas públicas, nenhum país conseguiu avançar nesse sentido, ponderou a pesquisadora.
“O processo está mais avançado hoje na Comissão Europeia, que começou em 2018, foi colocado em consulta pública em novembro de 2022, já teve mais de 3 mil emendas e ainda não chegou a um resultado final”, disse.
Algumas das dificuldades para regulamentar a IA são a necessidade de contemplar no processo dois agentes distintos – os desenvolvedores e os usuários – e uma lacuna de conhecimento dos reguladores em relação a essa nova tecnologia, que é complexa e cujo desenvolvimento é acelerado.
Outra razão é a globalização, uma vez que os dados usados para treinar os algoritmos de IA não têm nacionalidade, podendo ser oriundos de qualquer lugar do mundo. Além disso, as plataformas e os aplicativos utilizados hoje baseados nessa nova tecnologia foram desenvolvidos por empresas multinacionais, na maior parte norte-americanas.
“É uma tecnologia que não tem territorialidade, é muita complexa e avança muito rápido”, afirmou Kaufman.
Segundo a pesquisadora, hoje o desenvolvimento da IA se concentra em cinco empresas norte-americanas e privadas, que definem o hype – a excitação exagerada sobre as potencialidades de uma nova tecnologia.
“Nós vivemos no ano passado também o hype do metaverso, que desapareceu e agora deu lugar à IA generativa. E isso está relacionado com a competição acirrada entre essas empresas que lideram a implementação da IA”, explicou.
No caso específico do Brasil, outro obstáculo para estabelecer uma regulamentação para IA é a falta de profissionais especializados em áreas que dão sustentação a essa nova tecnologia, como a ciência de dados, apontou João Paulo Papa, professor da Universidade Estadual Paulista (Unesp), campus de Bauru.
“É mais difícil achar esses profissionais para elaborar o regulamento no país. Embora trabalhamos nessa área há vários anos, agora que está começando a aumentar a formação de pessoas em ciência de dados. Seria muito interessante o país tomar a frente nesse processo e fazer algo que seja pelo menos básico, lançar, receber sugestões e ir melhorando ao longo do tempo”, avaliou.
A despeito de o Brasil, a exemplo de países europeus, não ter protagonismo na pesquisa e desenvolvimento da IA, o país precisa estabelecer um marco regulatório para a inteligência artificial porque as tecnologias que nela se baseiam não têm senso comum e geram resultados incontroláveis, sublinhou Marcelo Finger, professor do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP).
“Há um problema intrínseco na forma como a IA está sendo gerada para o uso do público. Precisamos controlar, pois os resultados gerados são incontroláveis”, avaliou Finger, um dos pesquisadores principais do Centro de Inteligência Artificial (C4AI) – um Centro de Pesquisa em Engenharia (CPE) constituído por FAPESP e IBM na USP.
Novo formato
Promovido pelo Instituto do Legislativo Paulista (ILP) em parceria com a FAPESP, o ciclo de eventos é dirigido a legisladores, gestores públicos e demais interessados.
A próxima edição está prevista para ocorrer no dia 24 de abril.
“Este novo ciclo consolida a parceria de muitos anos entre a Alesp e a FAPESP e inaugura um novo formato que visa potencializar o debate sobre temas atuais do campo da ciência e da tecnologia, que têm grande interesse para a sociedade em geral, especificamente para a formulação e implementação de políticas públicas, notadamente nos municípios, e também para o próprio processo legislativo”, disse Any Marise Ortega, diretora executiva do Instituto de Estudos, Capacitação e Políticas Públicas do Poder Legislativo do Estado de São Paulo.
O presidente do Conselho Técnico-Administrativo da FAPESP, Carlos Américo Pacheco, foi o moderador do debate.
O evento pode ser assistido na íntegra em: www.youtube.com/watch?v=FCddvLWa1YU.
A Agência FAPESP licencia notícias via Creative Commons (CC-BY-NC-ND) para que possam ser republicadas gratuitamente e de forma simples por outros veículos digitais ou impressos. A Agência FAPESP deve ser creditada como a fonte do conteúdo que está sendo republicado e o nome do repórter (quando houver) deve ser atribuído. O uso do botão HMTL abaixo permite o atendimento a essas normas, detalhadas na Política de Republicação Digital FAPESP.